آنها را وادار به شکستن قوانین خود و ارائه محتوای مغ هوش مصنوعی حل تکالیف رضانه، مضر، گمراه کننده یا حتی غیرقانونی کنید. سازمانهای هوش مصنوعی از دو طریق به این تهدید پاسخ میدهند: یک چیز، جمعآوری بازخورد از کاربران در مورد محتوای نامناسب. آنها همچنین در حال بررسی پایگاههای اطلاعاتی خود هستند، اعلانهایی را که منجر به محتوای نامناسب میشوند شناسایی میکنند و مدل را در برابر این نوع نسلها آموزش میدهند.
اما آگاهی و حتی اقدام تضمین نمی کند که محتوای مضر هوش مصنوعی حل تکالیف از شبکه خارج نشود. سازمانهایی که بر مدلهای هوش مصنوعی ژنتیکی تکیه میکنند باید از خطرات اعتباری و قانونی ناشی از انتشار غیرعمدی محتوای مغرضانه، توهینآمیز یا دارای حق چاپ آگاه باشند.
با این حال، این خطرات را می توان به چند روش کاهش داد. ماری ال هویک، شریک مککینزی، میگوید: «هرگاه از مدلی استفاده میکنید، باید بتوانید با تعصبات مقابله کنید و به آن دستور دهید که از منابع نامناسب یا معیوب یا چیزهایی که به آنها اعتماد ندارید استفاده نکند.» چگونه؟ برای یک چیز، بسیار مهم است که داده های اولیه مورد استفاده برای آموزش این مدل ها را با دقت انتخاب کنید تا از محتوای سمی یا مغرضانه جلوگیری کنید. در مر هوش مصنوعی حل تکالیف حله بعد، سازمانها میتوانند بهجای استفاده از یک مدل هوش مصنوعی نسل جدید، از مدلهای کوچکتر و تخصصی استفاده کنند. سازمانهایی که منابع بیشتری دارند همچنین میتوانند یک مدل کلی را بر اساس دادههای خودشان سفارشی کنند تا متناسب با نیازهایشان باشد و تعصبات را به حداقل برسانند.
همچنین مهم است که یک انسان را در جریان نگه دارید (یعنی اطمینان حاصل کنید که یک انسان واقعی خروجی یک مدل هوش مصنوعی ژنرال را قبل از انتشار یا استفاده بررسی میکند) و از استفاده از مدلهای هوش مصنوعی ژنتیکی برای تصمیمگیریهای حیاتی، مانند مواردی که شامل موارد قابل توجهی است، اجتنا هوش مصنوعی حل تکالیف ب کنید. منابع یا رفاه انسانی
نمی توان به اندازه کافی تاکید کرد که این یک رشته جدید است. چشمانداز ریسکها و فرصتها احتمالاً در سالهای آینده به سرعت تغییر خواهد کرد. همانطور که نسل هوش مصنوعی به طور فزاینده ای در تجارت، جامعه و زندگی شخصی ما گنجانده می شود، می توانیم انتظار داشته باشیم که یک فضای نظارتی جدید نیز شکل بگیرد. همانطور که سازمانها با این ابزارها تجربه میکنند و ارزش ایجاد میکنند، رهبران به خوبی انجام میدهند که انگ هوش مصنوعی حل تکالیف شت خود را روی نبض مقررات و ریسک نگه دارند.
درباره QuantumBlack، AI by McKinsey بیشتر بیاموزید.
منشور حقوق هوش مصنوعی چیست؟
طرح اولیه منشور حقوق هوش مصنوعی، که توسط دولت ایالات متحده در سال 2022 تهیه شده است، چارچوبی را برای اینکه دولت، شرکت های فناوری و شهروندان به طور جمعی می توانند از هوش مصنوعی پاسخگوتر اطمینان حاصل کنند، ارائه می دهد. با فراگیرتر شدن هوش مصنوعی، نگرانیهایی در مورد عد هوش مصنوعی حل تکالیف م شفافیت بالقوه در مورد عملکرد سیستمهای هوش مصنوعی ژنرال، دادههای مورد استفاده برای آموزش آنها، مسائل مربوط به تعصب و انصاف، نقض احتمالی مالکیت معنوی، نقض حریم خصوصی و موارد دیگر ظاهر شده است. این طرح شامل پنج اصل است که کاخ سفید می گوید باید "طراحی، استفاده و استقرار سیستم های خودکار را برای محافظت از [کاربران] در عصر هوش مصنوعی هدایت کند." آنها به شرح زیر است:
حق برخورداری از سیستم های ایمن و کارآمد. سیستمها باید هوش مصنوعی حل تکالیف تحت آزمایشهای پیش از استقرار، شناسایی و کاهش ریسک و نظارت مستمر قرار گیرند تا نشان دهند که به کاربرد مورد نظر خود پایبند هستند.
محافظت در برابر تبعیض توسط الگوریتم ها. تبعیض الگوریتمی زمانی است که سیستمهای خودکار به رفتارهای غیرقابل توجیه متفاوت با افراد بر اساس نژاد، رنگ، قومیت، جنس، مذهب، سن و غیره کمک میکنند.
محافظت در برابر شیوههای دادههای سوءاستفادهکننده، از طریق پادمانهای داخلی. کاربران همچنین باید در مورد نحوه استفاده از داده هایشان نمایندگی داشته باشند.
حق دانستن اینکه یک سیستم خودکار در حال استفاده است، و توضیح واضح در مورد اینکه چگونه و چرا به نتایجی که بر کاربر تأثیر می گذارد کمک می کند.
حق انصراف و دسترسی به انسانی که بتواند به سرعت مش هوش مصنوعی حل تکالیف کلات را بررسی و برطرف کند.
در حال حاضر، بیش از 60 کشور یا بلوک، استراتژی های ملی حاکم بر استفاده مسئولانه از هوش مصنوعی دارند (شکل 2). برزیل، چین، اتحادیه اروپا، سنگاپور، کره جنوبی و ایالات متحده از جمله این کشورها هستند. رویکردهای اتخاذ شده از رویکردهای مبتنی بر دستورالعمل، مانند طرح اولیه منشور حقوق آموزش برنامه نویسی کودکان و نوجوانان هوش مصنوعی در ایالات متحده، تا مقررات جامع هوش مصنوعی که با قوانین حفاظت از دادهها و امنیت سایبری موجود، مانند قانون هوش مصنوعی اتحادیه اروپا که در سال 2024 موعد مقرر است، همخوانی دارد، متفاوت است.
نمایش 2
مقررات مربوط به حکمرانی هوش مصنوعی در سراسر ج هوش مصنوعی حل تکالیف هان متفاوت است.
ما تلاش می کنیم تا افراد دارای معلولیت دسترسی برابر به وب سایت خود را فراهم کنیم. اگر مایل به اطلاعات در مورد این محتوا هستید، خوشحال خواهیم شد که با شما همکاری کنیم. لطفاً به ما ایمیل بزنید: McKinsey_Website_Accessibility@mckinsey.com
همچنین تلاشهای مشترکی بین کشورها برای تعیین استانداردهایی برای استفاده از هوش مصنوعی وجود دارد. شورای تجارت و فناوری ایالات متحده و اتحادیه اروپا برای همسویی بیشتر بین اروپا و ایالات متحده کار می کند. مشارکت جهانی در زمینه هوش مصنوعی که در سال 2020 تشکیل شد، دارای 29 عضو از جمله برزیل، کانادا، ژاپن، ایالات متحده و چندین کشور اروپایی است.
حتی اگر مقررات هوش مصنوعی هنوز در حال توسعه است، سازمان ها باید از هم اکنون برای جلوگیری از خطرات قانونی، اعتبار، سازمانی و مالی اقدام کنند. در محیطی که نگرانی Artificial intelligence to solve homework عمومی وجود دارد، یک گام اشتباه می تواند پرهزینه باشد. در اینجا چهار مورد بدون پشیمانی وجود دارد،
آنها را وادار به شکستن قوانین خود و ارائه محتوای مغ هوش مصنوعی حل تکالیف رضانه، مضر، گمراه کننده یا حتی غیرقانونی کنید. سازمانهای هوش مصنوعی از دو طریق به این تهدید پاسخ میدهند: یک چیز، جمعآوری بازخورد از کاربران در مورد محتوای نامناسب. آنها همچنین در حال بررسی پایگاههای اطلاعاتی خود هستند، اعلانهایی را که منجر به محتوای نامناسب میشوند شناسایی میکنند و مدل را در برابر این نوع نسلها آموزش میدهند.
اما آگاهی و حتی اقدام تضمین نمی کند که محتوای مضر هوش مصنوعی حل تکالیف از شبکه خارج نشود. سازمانهایی که بر مدلهای هوش مصنوعی ژنتیکی تکیه میکنند باید از خطرات اعتباری و قانونی ناشی از انتشار غیرعمدی محتوای مغرضانه، توهینآمیز یا دارای حق چاپ آگاه باشند.
با این حال، این خطرات را می توان به چند روش کاهش داد. ماری ال هویک، شریک مککینزی، میگوید: «هرگاه از مدلی استفاده میکنید، باید بتوانید با تعصبات مقابله کنید و به آن دستور دهید که از منابع نامناسب یا معیوب یا چیزهایی که به آنها اعتماد ندارید استفاده نکند.» چگونه؟ برای یک چیز، بسیار مهم است که داده های اولیه مورد استفاده برای آموزش این مدل ها را با دقت انتخاب کنید تا از محتوای سمی یا مغرضانه جلوگیری کنید. در مر هوش مصنوعی حل تکالیف حله بعد، سازمانها میتوانند بهجای استفاده از یک مدل هوش مصنوعی نسل جدید، از مدلهای کوچکتر و تخصصی استفاده کنند. سازمانهایی که منابع بیشتری دارند همچنین میتوانند یک مدل کلی را بر اساس دادههای خودشان سفارشی کنند تا متناسب با نیازهایشان باشد و تعصبات را به حداقل برسانند.
همچنین مهم است که یک انسان را در جریان نگه دارید (یعنی اطمینان حاصل کنید که یک انسان واقعی خروجی یک مدل هوش مصنوعی ژنرال را قبل از انتشار یا استفاده بررسی میکند) و از استفاده از مدلهای هوش مصنوعی ژنتیکی برای تصمیمگیریهای حیاتی، مانند مواردی که شامل موارد قابل توجهی است، اجتنا هوش مصنوعی حل تکالیف ب کنید. منابع یا رفاه انسانی
نمی توان به اندازه کافی تاکید کرد که این یک رشته جدید است. چشمانداز ریسکها و فرصتها احتمالاً در سالهای آینده به سرعت تغییر خواهد کرد. همانطور که نسل هوش مصنوعی به طور فزاینده ای در تجارت، جامعه و زندگی شخصی ما گنجانده می شود، می توانیم انتظار داشته باشیم که یک فضای نظارتی جدید نیز شکل بگیرد. همانطور که سازمانها با این ابزارها تجربه میکنند و ارزش ایجاد میکنند، رهبران به خوبی انجام میدهند که انگ هوش مصنوعی حل تکالیف شت خود را روی نبض مقررات و ریسک نگه دارند.
درباره QuantumBlack، AI by McKinsey بیشتر بیاموزید.
منشور حقوق هوش مصنوعی چیست؟
طرح اولیه منشور حقوق هوش مصنوعی، که توسط دولت ایالات متحده در سال 2022 تهیه شده است، چارچوبی را برای اینکه دولت، شرکت های فناوری و شهروندان به طور جمعی می توانند از هوش مصنوعی پاسخگوتر اطمینان حاصل کنند، ارائه می دهد. با فراگیرتر شدن هوش مصنوعی، نگرانیهایی در مورد عد هوش مصنوعی حل تکالیف م شفافیت بالقوه در مورد عملکرد سیستمهای هوش مصنوعی ژنرال، دادههای مورد استفاده برای آموزش آنها، مسائل مربوط به تعصب و انصاف، نقض احتمالی مالکیت معنوی، نقض حریم خصوصی و موارد دیگر ظاهر شده است. این طرح شامل پنج اصل است که کاخ سفید می گوید باید "طراحی، استفاده و استقرار سیستم های خودکار را برای محافظت از [کاربران] در عصر هوش مصنوعی هدایت کند." آنها به شرح زیر است:
حق برخورداری از سیستم های ایمن و کارآمد. سیستمها باید هوش مصنوعی حل تکالیف تحت آزمایشهای پیش از استقرار، شناسایی و کاهش ریسک و نظارت مستمر قرار گیرند تا نشان دهند که به کاربرد مورد نظر خود پایبند هستند.
محافظت در برابر تبعیض توسط الگوریتم ها. تبعیض الگوریتمی زمانی است که سیستمهای خودکار به رفتارهای غیرقابل توجیه متفاوت با افراد بر اساس نژاد، رنگ، قومیت، جنس، مذهب، سن و غیره کمک میکنند.
محافظت در برابر شیوههای دادههای سوءاستفادهکننده، از طریق پادمانهای داخلی. کاربران همچنین باید در مورد نحوه استفاده از داده هایشان نمایندگی داشته باشند.
حق دانستن اینکه یک سیستم خودکار در حال استفاده است، و توضیح واضح در مورد اینکه چگونه و چرا به نتایجی که بر کاربر تأثیر می گذارد کمک می کند.
حق انصراف و دسترسی به انسانی که بتواند به سرعت مش هوش مصنوعی حل تکالیف کلات را بررسی و برطرف کند.
در حال حاضر، بیش از 60 کشور یا بلوک، استراتژی های ملی حاکم بر استفاده مسئولانه از هوش مصنوعی دارند (شکل 2). برزیل، چین، اتحادیه اروپا، سنگاپور، کره جنوبی و ایالات متحده از جمله این کشورها هستند. رویکردهای اتخاذ شده از رویکردهای مبتنی بر دستورالعمل، مانند طرح اولیه منشور حقوق آموزش برنامه نویسی کودکان و نوجوانان هوش مصنوعی در ایالات متحده، تا مقررات جامع هوش مصنوعی که با قوانین حفاظت از دادهها و امنیت سایبری موجود، مانند قانون هوش مصنوعی اتحادیه اروپا که در سال 2024 موعد مقرر است، همخوانی دارد، متفاوت است.
نمایش 2
مقررات مربوط به حکمرانی هوش مصنوعی در سراسر ج هوش مصنوعی حل تکالیف هان متفاوت است.
ما تلاش می کنیم تا افراد دارای معلولیت دسترسی برابر به وب سایت خود را فراهم کنیم. اگر مایل به اطلاعات در مورد این محتوا هستید، خوشحال خواهیم شد که با شما همکاری کنیم. لطفاً به ما ایمیل بزنید: McKinsey_Website_Accessibility@mckinsey.com
همچنین تلاشهای مشترکی بین کشورها برای تعیین استانداردهایی برای استفاده از هوش مصنوعی وجود دارد. شورای تجارت و فناوری ایالات متحده و اتحادیه اروپا برای همسویی بیشتر بین اروپا و ایالات متحده کار می کند. مشارکت جهانی در زمینه هوش مصنوعی که در سال 2020 تشکیل شد، دارای 29 عضو از جمله برزیل، کانادا، ژاپن، ایالات متحده و چندین کشور اروپایی است.
حتی اگر مقررات هوش مصنوعی هنوز در حال توسعه است، سازمان ها باید از هم اکنون برای جلوگیری از خطرات قانونی، اعتبار، سازمانی و مالی اقدام کنند. در محیطی که نگرانی Artificial intelligence to solve homework عمومی وجود دارد، یک گام اشتباه می تواند پرهزینه باشد. در اینجا چهار مورد بدون پشیمانی وجود دارد،